在最近的研究中,自我监管的预训练模型倾向于在转移学习中优于监督的预训练模型。特别是,可以在语音应用中使用语音级语音表示的自我监督学习(SSL),这些语音应用需要歧视性表示话语中一致属性的表示:说话者,语言,情感和年龄。现有的框架级别的自我监督语音表示,例如WAV2VEC,可以用作带有汇总的话语级表示,但这些模型通常很大。也有SSL技术可以学习话语级的表示。最成功的方法之一是一种对比方法,它需要负采样:选择替代样品与当前样品(锚)对比。但是,这并不确保所有负面样本属于与没有标签的锚类别不同的​​类别。本文应用了一种非对抗性的自我监督方法来学习话语级的嵌入。我们对没有标签(Dino)从计算机视觉到语音进行了调整,没有标签(Dino)。与对比方法不同,Dino不需要负抽样。我们将Dino与受到监督方式训练的X-Vector进行了比较。当转移到下游任务(说话者验证,语音情绪识别(SER)和阿尔茨海默氏病检测)时,Dino的表现优于X-Vector。我们研究了转移学习过程中几个方面的影响,例如将微调过程分为步骤,块长度或增强。在微调过程中,首先调整最后一个仿射层,然后整个网络一次超过微调。使用较短的块长度,尽管它们产生了更多不同的输入,但并不一定会提高性能,这意味着至少需要具有特定长度的语音段才能为每个应用程序提高性能。增强对SER有帮助。
translated by 谷歌翻译
考虑到大量未标记的语音数据和高标签成本,无监督的学习方法对于更好的系统开发至关重要。最成功的方法之一是对比度的自我监督方法,这些方法需要负采样:采样替代样品与当前样品(锚)对比。但是,很难确保所有负样本属于与没有标签的锚类别不同的​​类别。本文在未标记的语音语料库上应用了一种非对抗性的自我监督学习方法来学习话语级的嵌入。我们使用没有标签的蒸馏(Dino),在计算机视觉中提出,并将其改编为语音域。与对比度方法不同,Dino不需要负采样。这些嵌入是根据说话者验证和情感识别评估的。在说话者验证中,无监督的恐龙与余弦评分嵌入了voxceleb1测试试验中的4.38%EER。这表现优于最佳的对比度自我监督方法,而EER中的相对相对40%。不需要扬声器标签的迭代伪标记训练管道将EER进一步提高到1.89%。在情感识别中,Iemocap,Crema-D和MSP播客的Micro-F1得分分别进行了60.87、79.21和56.98%的恐龙。结果暗示着恐龙嵌入到不同语音应用中的普遍性。
translated by 谷歌翻译